- Photonik und Mikrotechnik: Von der Videokamera bis zum Flachbildschirm
- Photonik und Mikrotechnik: Von der Videokamera bis zum FlachbildschirmNeben der akustischen Nachrichtenübermittlung, bei der die menschliche Sprache oder besonders weit zu hörende einfache Signallaute benutzt werden, ist auch die optische Informationsweiterleitung bereits aus historischer Zeit bekannt. Da Lichtsignale — brauchbare Wetterbedingungen und erhöhte Standorte vorausgesetzt — wesentlich größere Entfernungen überwinden können als akustische, wurden schon früh Feuer- oder Rauchzeichen eingesetzt. Unterschiedliche Signalformen, Signaldauern oder zeitliche Abstände zwischen zwei Signalen können zu komplexeren Zeichen zusammengesetzt werden. Der Fall Trojas 1184 vor Christus wurde mit Fackelzeichen noch in derselben Nacht auf das griechische Festland mitgeteilt, bis in die Stadt Argos. Die Grenzposten entlang des römischen Limes konnten durch einen solchen »Code« Angriffe der Germanen genauso schnell der nächsten Garnison mitteilen wie Kriegsschiffe während des Ersten Weltkriegs sich durch gerichtete Blinksignale miteinander verständigen konnten. Bis in unser Jahrhundert hinein behielten das Flaggenalphabet und Signaltürme mit optischer oder mechanischer Zeichengebung große Bedeutung.Die Entdeckung der elektromagnetischen Wellen und die Erfindung von Telegrafie und Funk haben die optische Nachrichtentechnik zwar zunächst in den Hintergrund treten lassen, doch derzeit befindet sie sich erneut auf einem bemerkenswerten Erfolgskurs. Dies wurde möglich durch die Entwicklung von haarfeinen Glasfasern und winzigen, überaus schnell reagierenden Lichtsendern und -empfängern. Diese tragen dazu bei, den gewaltigen Informationsdurst unserer Zivilisation zu befriedigen. Videokameras mit hochauflösenden Bildempfängerchips sind ebenso wie auch die bunten Hologramme auf Scheckkarten und Geldscheinen Bestandteile unseres Alltagslebens geworden. Vor allem Techniken der Miniaturisierung haben diesen Weg geebnet.Optoelektronik - Videokameras und HalbleiterlaserDas menschliche Auge ist ein hoch entwickeltes Organ, von unseren fünf Sinnen ist das Sehen sicherlich der für uns wichtigste. Physikalisch betrachtet ist das Auge ein Abbildungssystem: Die Augenlinse wirft eine verkleinerte Projektion der Außenwelt durch die Pupillenöffnung auf die Netzhaut. Diese Netzhaut ist eine flächige Anordnung empfindlicher Nervenzellen, die das auftreffende Licht registrieren und als Nervenimpuls an das Gehirn weiterleiten. Dort wird das Bild analysiert und verarbeitet, am Ende dieses komplizierten Informationsverarbeitungsprozesses steht der Eindruck, dass das Bild als Ganzes »empfunden« wird. Über 100 Millionen solcher Nervenzellen bedecken die Netzhaut.Wie auch eine Kamera, für die letztlich das Auge als Vorbild diente, besitzt es eine Vorrichtung zum Scharfstellen des Bildes, die Akkomodationsmuskeln, eine an die Lichtmenge adaptierbare Blende, die Pupille, und eine begrenzte Auflösung: Aus einigen Metern Entfernung können wir die einzelnen Halme einer Wiese oder die Blüten eines Apfelbaums nicht mehr getrennt wahrnehmen. Das liegt bei der Kamera an der begrenzten »Körnigkeit« des Filmmaterials, beim Auge an der limitierten Zahl von Nervenzellen pro Flächeneinheit; an der empfindlichsten Stelle sind es immerhin etwa 14 000 pro Quadratmillimeter.Dass im Fotoapparat auf der lichtempfindlichen Filmschicht ein Bild entstehen kann, liegt daran, dass ein auftreffendes Lichtquant, also die kleinste von diesen elektromagnetischen Wellen transportierte Energieportion, auch Photon genannt, einen physikalisch-chemischen Prozess auslöst, der letztlich zur Bildung eines Farbkörnchens führt. Je intensiver die Lichtintensität, also je mehr Photonen den Film pro Flächeneinheit treffen, desto mehr solcher Körnchen werden gebildet. Die Zahl der eintreffenden Photonen bestimmt auf dem Foto also den Helligkeitsgrad. Empfindliche Filme besitzen eine hohe Körnigkeit: Wenige Photonen können bereits einen deutlichen Helligkeitseindruck bewirken, da recht große Körner gebildet werden. Filme mit geringer Empfindlichkeit benötigen wesentlich mehr Photonen für denselben Helligkeitseindruck, allerdings können nahe benachbarte Helligkeitsunterschiede viel besser voneinander getrennt werden, weil sie durch kleinere Körnchen aufgebaut werden; das Bild wirkt »schärfer«.Die Tatsache, dass punktförmige Informationen, die ein Gesamtbild aufbauen, durch das Sehempfinden des Menschen wieder zum Gesamtbild »zusammengesetzt« werden, macht sich die Technik der Bildwiedergabe seit langem zunutze: Gerasterte Schwarz-Weiß-Bilder in der Tageszeitung sind, betrachtet man sie einmal genauer (beispielsweise durch eine Lupe), aus lauter winzigen schwarzen Einzelpunkten zusammengesetzt, die alle gleichen horizontalen und vertikalen Abstand voneinander besitzen. Kleine Punkte bilden hellgraue Flächen, dicke Punkte dagegen dunkelgraue. Dort, wo Punkte fehlen, empfinden wir das Bild als weiß, dort, wo sie ineinanderlaufen, als schwarz.PhotodiodenWie werden nun Erfassung, Digitalisierung, Verarbeitung und Übertragung von Bildinformationen technisch realisiert? Da für die Bilddatenverarbeitung die gesamte hoch entwickelte Mikroelektronik bereits zur Verfügung steht, liegt es nahe, auch für die anderen Aufgaben mikrostrukturierte Bauteile zu entwickeln, also miniaturisierte Sende-, Empfangs- und Darstellungselemente. Die einfachsten Halbleiterbauteile, die hierfür infrage kommen, sind die Photodioden, denen wie den aus der Mikroelektronik bekannten Halbleiterdioden ebenfalls ein p-n-Übergang zugrunde liegt.Photodioden bestehen wie Halbleiterdioden im einfachsten Falle aus einem Übergang zwischen einem p- und einem n-dotierten Halbleiterbereich. Sie werden jedoch nicht zum Gleichrichten von Strömen, sondern zum Nachweis oder Aussenden von Licht verwendet. Dies wird dadurch möglich, dass bei einem p-n-Übergang die Zusatzenergie, mit der die Elektronen des Valenzbandes in das Leitungsband angehoben werden können, durch im Prinzip jede Art von Energie, und damit nicht nur durch Wärmeenergie oder elektrische Energie, sondern eben auch durch Licht aufgebracht werden kann. Dafür gilt lediglich die Bedingung, dass die von den eintreffenden Lichtteilchen, den Photonen, transportierte Energie genau dieselbe Größe wie die Bandlücke haben muss.Als Lichtempfänger werden Photodioden zum Beispiel in Solarzellen oder in elektronischen Kameras wie Videokameras oder Camcordern benutzt. Für diese werden richtiggehende künstliche Netzhäute konstruiert, also digitale Bildaufnahmegeräte, die im einfachsten Fall aus einem Feld (englisch »Array«) von winzigen Photodioden bestehen und auf die wie im menschlichen Auge ein Bild der Außenwelt abgebildet wird. Ein solches Array besitzt typischerweise 1024 Zeilen und 1280 Spalten, also 1,3 Millionen einzelne Photodioden. In jeder Photodiode wird die auftreffende Lichtintensität, analog zur Sehzelle, in einen dazu proportionalen Strom umgewandelt und der digitalen Speicherung oder Bildverarbeitung zur Verfügung gestellt.Visuelle Bits: PixelBeim Sehvorgang kann das Auge eng beieinander liegende kleine Farbflecke nicht mehr auflösen, sobald es sich in einiger Entfernung davon befindet. Sind die beiden Punkte von unterschiedlicher Farbe, so empfindet es dann aber die entsprechende Mischfarbe. Das macht man sich beim Farbfernsehen zunutze. Der Bildschirm besteht unter seiner Glashülle auf der Vorderseite aus einem Rastermuster von Leuchtstoffpunkten, je ein roter, blauer und grüner sind zu einem Tripel zusammengelagert. Das Bild wird für den Zuschauer dadurch aufgebaut, dass drei Elektronenstrahlen, einer für jede Farbe, diese Leuchtstoffpunkte zum Leuchten anregen. Dazu werden sie gemeinsam zeilenweise auf diese Punkttripel fokussiert. An den Stellen, an denen das Fernsehbild rot sein muss, ist der entsprechende Elektronenstrahl aktiv und lässt den roten Farbstoff aufleuchten, die beiden anderen Strahlen werden hier nicht ausgesendet.Ein Bild kann also auch aus technischer Sicht in Einzelelemente zerlegt werden. Man nennt diese Elemente »Pixel«, ein Kunstwort, gebildet aus dem englischen Ausdruck »Picture Element«. Jedem Pixel eines Bildes kann man kartesische Koordinaten zuordnen, das heißt in diesem Fall eine Zeilen- und eine Spaltennummer oder, wenn man die Zahl der Spalten und Zeilen kennt, einfach eine fortlaufende Zahl. Man spricht von der Adresse des Pixels. Im Schwarz-Weiß-Bild muss nun jedem Pixel ein Grauwert zugeordnet werden. Je feiner das Intervall zwischen Schwarz und Weiß aufgeteilt wird, üblicherweise in 8, 16 oder 32 Stufen, desto natürlicher erscheinen im später wieder zusammengefügten Bild die Helligkeitsübergänge. Durch die Zerlegung von Bildinformationen in einzelne Adressen, denen ein Grauwert (oder mehrere Farbwerte) zugeordnet werden, ist die Bildinformation digitalisiert und kann somit in eindeutiger Weise übertragen, verarbeitet und wieder dargestellt werden.Charge Coupled DevicesEine Videokamera enthält als Kernstück einen oder mehrere Festkörperbildsensoren, in der Regel CCD-Chips (die englische Bezeichnung Charge Coupled Device bedeutet so viel wie »ladungsgekoppeltes Bauteil« und rührt von dem Umstand her, dass die in den einzelnen Bildelementen erzeugten Ladungen gewissermaßen zur elektronischen Bildinformation zusammengekoppelt werden). Jeder CCD-Chip besteht aus mehreren 100 000 bis zu über einer Million auf einer Siliciumunterlage integrierten Photoempfängern, die in Zeilen und Spalten angeordnet sind. Dabei ist die Seitenlänge eines solchen rechteckigen Arrays typischerweise nur wenig größer als ein Zentimeter. Ein einzelnes Empfangselement (Pixel) besteht aus einem MOS-Kondensator, einem Bauelement, bei dem eine Metallelektrode von einem p-dotierten Halbleitersubstrat (typischerweise Silicium) durch eine Metalloxidschicht getrennt ist. Daher auch der Name MOS: Metal Oxide Semiconductor, zu Deutsch Metall-Oxid-Halbleiter. Fällt Licht ein, so können Elektronen im Silicium in das Leitungsband gelangen. Liegt nun außerdem zwischen Metallelektrode und Siliciumsubstrat eine Spannung an, so wandern die Elektronen durch die Metalloxidschicht zur Elektrode und sammeln sich dort. Ihre Zahl ist proportional zu der auf das entsprechende Pixel des CCD eingestrahlten Lichtmenge. Durch ein wohldefiniertes Verändern dreier Spannungen, nämlich der des betrachteten Pixels und seiner zwei Zeilennachbarn, kann das erhaltene Ladungsmuster innerhalb der Pixelzeile bis zum Rand verschoben werden. Ein Pixel-»Inhalt« nach dem anderen wird somit am Rande des Arrays der Auswerteeinheit zugänglich, welche die Ladung des gerade ausgelesenen Pixels misst und als dessen Helligkeitswert digital abspeichert.Leuchtdioden und DiodenlaserNicht nur Lichtempfänger, auch Lichtsender lassen sich in miniaturisierter Form bauen. Bekannte Miniaturlampen sind zum Beispiel die Photodioden aus den LED-Anzeigen von alten Taschenrechnern oder Kleingeräten — LED bedeutet »Light Emitting Diode«, auf Deutsch: lichtaussendende Diode. Die neuesten Entwicklungen haben es sogar möglich gemacht, weniger als ein Millimeter lange Laser auf Halbleiterbasis zu konstruieren!Die rote Ziffernanzeige der frühen Taschenrechner war aus acht einzelnen LEDs je Ziffer zusammengesetzt. Diese kann man als Halbleiterdiode mit einem p-n-Übergang betrachten, der aufleuchtet, wenn er in Durchlassrichtung gepolt wird. Zum Aufleuchten kommt es, wenn die freigesetzten Elektronen und Löcher wieder rekombinieren, also die Elektronen die Löcher auffüllen und die dabei frei werdende Energie in Form von Licht aussenden. Nicht alle Halbleitermaterialien senden allerdings Licht bei der Rekombination aus, Silicium und Germanium beispielsweise können nicht in LEDs eingesetzt werden. Geeignet sind dagegen Verbindungen wie Galliumarsenid oder Galliumarsenidphosphid. Ersteres sendet infrarotes (und damit für das menschliche Auge unsichtbares) Licht aus, Letzteres rotes. Gelbes oder grünes Licht lässt sich mit stickstoffdotiertem Galliumphosphid erreichen.Ein p-n-Übergang in Halbleitermaterialien kann nicht nur als Leuchtdiode zur Erzeugung von Licht verwendet werden. Wenn man eine solche emittierende Struktur wie einen Wellenleiter streifenartig anlegt, durch geeignete Kanten, die den Wellenleiter senkrecht abschließen, eine Resonatorstruktur realisiert und diesem System auf geeignete Weise Pumpenergie zuführt, kann man es zur Lasertätigkeit anregen. Solche Halbleiterlaser, etwas unscharf auch als »Laserdioden« oder »Diodenlaser« bezeichnet, sind nur wenige hundert Mikrometer lang und lassen sich durch dünnschichttechnische und lithographische Methoden herstellen. Ihre optischen Eigenschaften können durch die Zusammensetzung der beteiligten Halbleiter und ihre Strukturierung in weiten Grenzen eingestellt werden. Solche Laser dienen in der Tele- und Datenkommunikation als Sender, in der Sensorik als Lichtquelle und, oft zu ganzen Arrays mit vielen Watt an Leistung vereint, sogar zur Materialbearbeitung. Eine weit verbreitete Anwendung sind die Leseköpfe von CD- oder DVD-Spielern. Bei diesen wird die Breite der Datenspuren von der Wellenlänge des Diodenlasers bestimmt: Sie beträgt genau ein Viertel dieser Wellenlänge; die kurzwelligeren DVD-Laserdioden ermöglichen also eine kleinere Spurbreite und damit eine deutlich höhere Datenkapazität im Vergleich zur CD.Pipelines für Informationen aus Licht - WellenleiterLicht breitet sich im Vakuum geradlinig aus. Unter normalen Bedingungen gilt dies auch in Gasen oder durchsichtigen Festkörpern und Flüssigkeiten, wie etwa der Umgebungsluft, Glas oder Wasser. Licht, so unsere Alltagserfahrung, scheint nicht »um Ecken herum« oder auf gebogenen Bahnen. Wie kann man Licht dennoch dazu zwingen, beliebig vorgegebene, eventuell auch gekrümmte Wege zurückzulegen? Und: Kann man Lichtsignale aufteilen und vereinigen, verarbeiten und vergleichen, ohne sie erst in elektrische Signale umwandeln zu müssen?Lichtsignale führenEs ist natürlich möglich, Licht von einer geraden Bahn auf eine andere gerade Bahn zu lenken, etwa mit einem einfachen Spiegel. Eine weitere Möglichkeit ist die Lichtbrechung an der Grenzfläche zwischen einem »optisch dünneren« (zum Beispiel Luft) und einem »optisch dichteren« Medium (zum Beispiel Glas oder Wasser). Beim umgekehrten Übergang (vom optisch dichteren ins dünnere Medium) kann es zur Totalreflexion kommen: Fällt das Licht unter genügend flachem Winkel auf die Grenzfläche, wird diese zum perfekten Spiegel und lässt kein Licht mehr hinaus. Das Phänomen Totalreflexion kann man auch bei der Übertragung von Licht nutzen: Lichtstrahlen, die an einem Ende eines Glasstabs unter flachen Winkeln eingespeist werden, laufen nicht geradlinig durch den Stab, sondern werden im Innern des Stabes immer wieder an dessen Außenfläche hin- und herreflektiert, bis sie am anderen Ende wieder austreten. Biegt man den Glasstab nun moderat, so kann man es tatsächlich schaffen, Licht »um die Ecke zu bringen«.Die technische Realisierung dieses Übertragungsprinzips ist die Glasfaser. Sie besteht heute in der Regel aus hochreinem Quarzglas, das einen Mantel mit etwa 125 Mikrometer Außendurchmesser um einen Kern herum bildet, der — je nach Verwendungszweck — zwischen wenigen Mikrometern bis zu etwa 120 Mikrometern dick sein kann. Somit ist die Glasfaser nur wenig dicker als ein menschliches Haar und der Kern an sich bereits eine präzis gefertigte Mikrostruktur.Glasfasern und DatenflutDie Problematik, welche die zunehmende Informationsflut auslöst, erkennt man, wenn man bedenkt, dass durch ein modernes Kupferfernmeldekabel, eine Koaxialleitung, Datenpulse mit einer Frequenz von etwa 600 Megahertz (Millionen Pulsen pro Sekunde) übertragen werden können. Das reicht für 8000 digitale Fernsprechkanäle oder für gerade mal vier Fernsehprogramme. Und zu allem Überfluss müssen die Signale alle zwei Kilometer von einem zwischengeschalteten Verstärker aufgenommen, »aufgefrischt« und weitergesendet werden! Ein Glasfaserkabel bietet gegenüber der Kupferkoaxialleitung nun etliche Vorteile: Sie ist nicht nur leichter (ein übliches Telefonkabel für 200 Teilnehmer wiegt zwei Tonnen pro Leitungskilometer, das entsprechende Glasfaserkabel nur 300 Kilogramm), sondern es ist auch wesentlich weniger störanfällig. Der größte Vorteil ist jedoch die enorme übertragbare Bandbreite, die bestimmte Anwendungen wie das hoch auflösende digitale Fernsehen überhaupt erst ermöglicht.Größere Probleme als der Lichtverlust durch die Außenwände bereitet das zeitliche »Auseinanderfließen« der optischen Nachrichtenpulse, die Dispersion. Ursache dafür sind die unterschiedlichen Ausbreitungsgeschwindigkeiten der verschiedenen Schwingungstypen (Moden) und Wellenlängen. Das führt dazu, dass in einer Multimodefaser nach einer gewissen Strecke die Pulse »ineinander laufen«, sich auf dem Empfänger also zeitlich überlappen und nicht mehr als einzelne Pulse aufgelöst werden können. Deshalb benutzt man Multimodefasern vor allem für Kurzstreckenübertragung und zieht in der Telekommunikation die Einzelmodefaser vor. Auch sie zeigt noch eine Dispersionserscheinung, nämlich die wellenlängenabhängige chromatische Dispersion. Diese führt dazu, dass die verschiedenen »Farben« eines Signals unterschiedlich schnell transportiert werden. Diesem wird mit der Verwendung von sehr schmalbandigem — das heißt nur Strahlung eines sehr engen Wellenlängenbereichs enthaltendem — Laserlicht begegnet. Auf diese Weise können Strecken von 100 Kilometern mit Datenraten von zehn Gigahertz leicht überwunden werden.Optische MikrostrukturenGlasfasern führen das Licht über lange Distanzen. An ihren Enden, dort wo Licht erzeugt oder nachgewiesen wird, oder in dazwischenliegenden Komponenten, wo Lichtsignale verstärkt oder verarbeitet werden, sind optische Mikrostrukturen nötig. Eine einfache Anwendung ist zum Beispiel das Einkoppeln des Lichts eines Halbleiterlasers in eine Glasfaser — hierzu kann man sich im einfachsten Fall kleinster Linsen bedienen, die mikrotechnisch hergestellt werden. Daneben gibt es aber auch noch viel komplexere Probleme und Lösungen, die zur Entwicklung verschiedenster mikrooptischer Bauteile und Strukturen geführt haben, deren Herstellung zumeist an lithographische Techniken angelehnt ist.Diffraktive OptikWährend Linsen und Prismen Lichtstrahlen brechen und damit Lichtbündel lenken und formen können, geschieht dies bei optischen Gittern durch Lichtbeugung. Im ersten Fall spricht man von refraktiver, im zweiten von diffraktiver Optik. Diffraktive optische Elemente (DOEs) zeichnen sich dadurch aus, dass sie in aller Regel eben (planar) sind und mit mikrotechnischen Methoden hergestellt werden können. Außerdem kann man mit ihnen eine Fülle von komplexen Funktionen realisieren, wie es mit refraktiven Elementen nur schwer möglich ist. Ihr Nachteil: Sie zeigen die gewünschte Funktion zumeist nur für Licht einer speziellen Wellenlänge.Ein Beugungsgitter kann man zum Beispiel benutzen, um Licht von seiner Bahn auf genau definierte Weise abzulenken, genau wie mit dem aus dem Physikunterricht bekannten Prisma. Auch hier wird jede Wellenlänge verschieden stark abgelenkt, weißes Licht wird zu einem »Regenbogen«, einem Spektrum, aufgefächert. Dieser Effekt lässt sich bekanntlich zur Analyse der Zusammensetzung eines Lichtsignals nutzen. Durch ein Beugungsgitter kann man aber auch ein Lichtbündel in viele kleine Lichtbündel aufteilen, deren Richtungen und Intensitäten durch die Gitterform in weiten Grenzen vorgebbar sind.Hergestellt werden diffraktive Elemente durch Lithographie- und Ätzverfahren, wie sie für die Mikroelektronik entwickelt wurden. Ihre Wirkungsweise beruht letztlich darauf, dass ihre Strukturen selbst nicht wesentlich größer als die Wellenlänge des verwendeten Lichtes sind.Die Funktion einer herkömmlichen Linse kann in der diffraktiven Optik durch eine Fresnel-Linse übernommen werden, die aus mehreren konzentrischen Ringen besteht, welche eine gewisse Dicke haben und so übereinander angeordnet sind, dass von der Seite her gesehen ein Prisma entsteht. Solche Fresnel-Linsen zur Lichtbündelung sind — im makroskopischen Bereich — seit langem in Gebrauch, etwa bei Scheinwerfern von Leuchttürmen, im Auto oder bei Overheadprojektoren. Die einzelnen Ringe der Fresnel-Linsen werden mit metallenen Prägewerkzeugen durch spanabhebende Verfahren, wie das Ultrapräzisionsdrehen oder -fräsen, hergestellt. Die einfachste mikrotechnisch erzeugte diffraktive Linse ist eine Fresnel-Zonenplatte, deren einzelne Ringe nur wenige Mikrometer breit und eine halbe Wellenlänge hoch sein müssen. Der Anteil des im Brennpunkt sammelbaren Lichts ist bei der Fresnel-Zonenplatte allerdings noch recht dürftig, da ihre Form die einer Fresnel-Linse nur unzureichend wiedergibt. Wendet man jedoch kompliziertere Lithographieverfahren an, bei denen mehrere Masken eingesetzt werden, so lässt sich das Profil der Zonenplatte immer mehr dem einer Fresnel-Linse annähern, wodurch eine deutlich höhere Lichtausbeute erreichbar ist.Auch die von Scheck- und Kreditkarten bekannten dreidimensionalen Bilder, die Hologramme, können diffraktive optische Elemente sein: Beim Erzeugen eines Hologramms werden ein vom aufzunehmenden Objekt reflektiertes Lichtbündel und ein zweites, ungestörtes Bündel — beide aus demselben Laser — in einem photographischen Medium zur Interferenz gebracht. Es entsteht ein kompliziertes Muster. Die Rekonstruktion des gespeicherten Bilds kommt durch Beugung des auslesenden Lichts an diesem Interferenzmuster zustande. Das Interferenzmuster, das die holographisch gespeicherte Information enthält, kann aber auch mit Computerprogrammen berechnet werden — der Aufnahmeschritt kann also entfallen. Ein computergeneriertes Hologramm lässt sich mithilfe eines Elektronenstrahlschreibers dazu verwenden, einen Satz von Chrommasken herzustellen, mit denen lithographisch das berechnete Interferenzmuster nachgebildet wird. Solcherart entstandene mikrooptische Strukturen nennt man holographisch-optische Elemente (HOEs). DOEs und HOEs finden heute Einsatz in vielen mikrooptischen Systemen, beispielsweise in Kamerasuchern, Laserscannern und Abstandssensoren bei Fahrzeugen.Wenn schon optische Mikrostrukturen erzeugt werden können, so liegt die Frage nahe, ob und wie man analog zu den bekannten integrierten elektronischen Schaltkreisen, den ICs, photonische »Schaltkreise« herstellen kann. Elektrische Ströme werden durch elektrisch leitende Bahnen zu den einzelnen passiven oder aktiven Bauteilen geführt, wobei jede Leitungsbahn von den anderen elektrisch isoliert sein muss. Licht führt man, wie am Beispiel der Glasfaser gezeigt, in transparenten, lang gestreckten Strukturen, die sich von der (ebenfalls transparenten) Umgebung durch einen höheren Brechungsindex unterscheiden müssen, damit der Effekt der Totalreflexion ausgenutzt werden kann. Solche Strukturen werden Lichtwellenleiter oder kurz Wellenleiter genannt. Sie können mikrotechnisch beispielsweise direkt auf einem Silicium-Wafer erzeugt werden und lassen sich mit anderen mikrooptischen Bauteilen zu integrierten optischen Schaltungen (englisch: »Integrated Optical Circuits«, IOCs) kombinieren.Um auf Silicium-Wafern Wellenleiter herzustellen, geht man von den Materialien Siliciumdioxid und Siliciumoxonitrid aus, die mit unterschiedlichen Prozessen der Dünnschichttechnik so verarbeitet werden, dass die gewünschten Strukturen auf der Siliciumunterlage entstehen. In der Regel ist ein solcher Wellenleiter dann aus einem Kern aus Siliciumoxonitrid und einem Mantel aus Siliciumoxid aufgebaut. Das Silicium des Wafers dient im Wesentlichen nur als Träger. Die Ankopplung an externe Bauelemente erfolgt meistens über Glasfasern, wobei eine äußerst genaue Positionierung der sich gegenüberstehenden Enden von Glasfaser und Wellenleiter erforderlich ist, damit die Signalankopplung ohne größere Verluste vonstatten geht. In vielen Fällen dienen v-förmige Nuten, die in die Siliciumunterlage vor den Wellenleiterenden eingelassen sind, zur Positionierung der Glasfaser.In Glas können Wellenleiter hergestellt werden, indem man die Wellenleiterstrukturen durch Bedampfen mit Metall und nachfolgende Lithographie- und Ätzschritte als Metallmaske direkt auf einen Glaswafer aufbringt. Der Wafer wird dann in eine Schmelze aus Metallsalzen getaucht, in der — beschränkt auf die ungeschützten Glasregionen — ein langsamer Diffusionsprozess zwischen Wafer und Schmelze stattfindet. Die eindiffundierenden Ionen erhöhen den Brechungsindex des Glases in den ungeschützten Regionen. Durch diesen aufwendigen Prozess entstehen sehr hochwertige Wellenleiterbausteine für die Telekommunikationstechnik und Sensorik.Unter Verwendung der LIGA-Technik lassen sich metallene Stempel erzeugen, mit denen man die späteren Wellenleiterbahnen in transparente Kunststoffchips einprägt, zusammen mit Führungsgräben für die anzukoppelnden Glasfasern. Sind diese eingelegt, wird ein Gießharz zugefügt, das zum einen durch seinen höheren Brechungsindex das Kernmaterial der Wellenleiter bildet, darüber hinaus aber auch den Spalt zwischen Glasfaser und Wellenleiter ausfüllt und als Kleber für die Deckplatte des Bauteils dient. Dadurch, dass die Wellenleitergräben und die Faserpositionierungen in einem Arbeitsgang in den Kunststoff eingeprägt werden, entfällt die aufwendige Montage der Fasern, die sonst ein sorgfältiges Positionieren und Ankleben der Faserenden erfordert.Außer passiven Funktionen, zum Beispiel dem Verteilen und Vereinigen von Lichtsignalen, können integriert-optische Bauteile auch mit aktiven Funktionen versehen werden. So lassen sich optische Informationen durch elektrische Signale erzeugen oder manipulieren, indem man einen Wellenleiter mit einem Material umgibt, dessen optische Eigenschaften durch elektrische Felder beeinflusst werden können. Auf diese Weise gelingt es, optische Modulatoren oder Schalter zu realisieren.So wie man eine Glasfaser nicht beliebig eng krümmen kann, so können natürlich auch integriert-optische Wellenleiter das Licht nicht um beliebig enge Bögen lenken. Integriert-optische Strukturen sind also immer zwar relativ dünn (die Querschnitte liegen etwa zwischen einigen und hundert Quadratmikrometern), aber mehrere Zentimeter lang. Ein Integrationsgrad wie bei den ICs der Mikroelektronik ist bei diesen IOCs — zumindest derzeit — noch nicht absehbar.Optik im ComputerWie in der Telekommunikation, so wachsen auch bei der Datenkommunikation innerhalb von Computern und in Computernetzwerken die Anforderungen an die Menge der Daten und an die Übertragungsrate. Die elektrische Übertragung stößt bei Übertragungsraten im Gigahertzbereich an ihre physikalischen Grenzen. Daher werden zukünftige Computernetze verstärkt auf Glasfasertechnik und integriert-optische Komponenten zurückgreifen. Auch für die Datenleitung innerhalb des Computers werden bereits optische Lösungen erprobt: Glasfasern ersetzen einen Teil der Leiterbahnen auf einer Platine, für den Datenaustausch zwischen den Platinen sorgen Freistrahlverbindungen über miniaturisierte refraktive oder diffraktive Optiken.Werden die eigentlichen Logikfunktionen eine Domäne der Elektronik bleiben, oder wird es irgendwann den »optischen Computer« geben? Dazu wäre es nötig, direkt — also ohne Umweg über Spannungs- oder Stromsignale — Licht durch Licht zu beeinflussen. Aus unserem Alltag kennen wir solche Phänomene nicht. Lichtstrahlen durchdringen einander, ohne dass es einen »Kurzschluss« gibt, wie er beim Kreuzen zweier elektrischer Leiterbahnen auftritt. Dennoch: Wählt man die Lichtintensität genügend hoch, wie dies heute mit Lasern realisierbar ist, so kommt es zu vollkommen neuen Erscheinungen, den nichtlinear-optischen Phänomenen, mit denen sich die optischen Eigenschaften eines Materials gezielt beeinflussen lassen: Absorption und Brechungsindex des Materials verändern sich beispielsweise so, dass ein zweiter Laserstrahl, der weitaus weniger intensiv und von anderer Wellenlänge sein kann, beim Durchdringen des Materials weniger geschwächt oder deutlicher abgelenkt wird, als es ohne den nichtlinear-optischen Effekt der Fall wäre. So könnten optische Modulatoren und Schalter mit außerordentlich kleinen Schaltzeiten im Pikosekunden-Bereich realisiert werden: Optische Transistoren, oft als »Transphasoren« bezeichnet, sind bereits im Labortest.Ein wesentlicher Nachteil besteht bisher darin, dass nichtlinear-optische Phänomene zwar sehr schnell sind, dass sie jedoch nur durch die hohen Lichtintensitäten von leistungsstarken und damit aufwendigen und teuren Lasern erzeugt werden können. Hier ist vor allem in der Materialforschung noch viel zu tun, um das Zustandekommen dieser Effekte auf molekularer Basis richtig zu verstehen.DisplaysBildschirme — oder neuhochdeutsch Displays — sind heute das am weitesten verbreitete Mittel für die Darstellung aller Arten von Information — angefangen beim Fernsehen, über Heimcomputer, Kontrolleinheiten für große Maschinen bis hin zu Flugsimulatoren oder wissenschaftlichen Messgeräten.braunsche RöhrenDie Urform aller Bildschirme ist die Kathodenstrahlröhre, die 1897 von Karl Ferdinand Braun entwickelt wurde und deshalb oft auch braunsche Röhre genannt wird. In weiterentwickelter Form wird sie in großen Stückzahlen für Fernsehbildschirme, Computermonitore und Oszilloskope hergestellt. Ihr technisches Funktionsprinzip bedingt einen recht massiven und voluminösen Glaskolben, der evakuiert werden muss. Zur Erzeugung und Ablenkung des Elektronenstrahls, der die Bildinformation auf die »Mattscheibe« schreibt, ist zudem noch eine relativ große und schwere elektrotechnische Baugruppe notwendig, sodass zum Beispiel der Monitor eines Personalcomputers in der Regel ein Viertel bis ein Drittel des Systemgewichts ausmacht. Wie sehr die »tiefe« Bauform eines Monitors den oft schon spärlichen Platz auf einem Schreibtisch einschränkt, ist vielen von uns leidlich bekannt.PlasmabildschirmeEin erster Schritt hin zu flachen Bildschirmen war die bereits Anfang der 1960er-Jahre entwickelte Plasmabildschirm-Technik. Sie beruhte — grob gesprochen — auf der Miniaturisierung der Leuchtstoff- oder »Neonröhre«. In ihr befindet sich ein Edelgas, zum Beispiel Neon. Wird zwischen zwei relativ weit voneinander entfernte Elektroden innerhalb der Röhre eine hohe Spannung angelegt, so wird das Gas durch die hohe elektrische Feldstärke an den Elektroden ionisiert, es kommt zu einem Stromfluss von einer Elektrode zur anderen durch das Gas hindurch, also zu einer Gasentladung. Träger des Stromflusses sind die positiv geladenen Edelgasionen und die freigesetzten Elektronen, zusammen werden sie als Plasma bezeichnet. Die beiden Ladungsträgersorten werden durch das elektrische Feld in jeweils entgegengesetzte Richtungen beschleunigt. In der Folge dieses Prozesses kommt es zu Stößen zwischen Ionen und Elektronen mit noch nicht ionisierten Atomen, wobei neue Ionisationsprozesse stattfinden können, aber auch Ionen wieder Elektronen einfangen und somit wieder zu neutralen Atomen werden. Geschieht Letzteres, so wird die Elektronenenergie vom Atom in Form eines Lichtquants abgestrahlt. Auf diesem Mechanismus beruht primär das Leuchten der Neonröhre.Ein Plasmadisplay besteht aus zwei Glasscheiben in geringem Parallelabstand voneinander, die an den Rändern miteinander gasdicht verbunden sind. Der Innenraum ist mit einem Edelgas gefüllt. An den Innenseiten der Glasplatten verlaufen viele gerade, dünne, streifenförmige Metallelektroden parallel zueinander, wobei die Streifen der einen Platte zu denen der anderen im rechten Winkel angeordnet sind. Zeilen- und Spaltenelektroden sind lithographisch strukturiert. Das Bildschirmfeld gliedert sich so in Zeilen und Spalten, jede Streifenkreuzung entspricht einem Pixel; durch Ansteuern der Elektroden ruft man dort eine Plasmaentladung hervor und das Pixel leuchtet. Allerdings liegt die Wellenlänge des dabei entstehenden Lichts im Ultravioletten. Um das Leuchten des Pixels wirklich sichtbar zu machen, ist oberhalb der Plasmazellen noch eine Schicht Leuchtstoff angebracht. Leuchtstoffe (Luminophore) sind Substanzen, die durch Strahlung mit kurzen Wellenlängen — und damit hoher Energie — zur Fluoreszenz, also zum Leuchten bei einer anderen, größeren Wellenlänge, angeregt werden. Auch die »großen« Neonröhren arbeiten nach diesem Prinzip. Wird ein Kreuzungspunkt nach dem anderen angesteuert und bringt man die entprechenden Plasmazellen nacheinander zum Leuchten — oder auch nicht —, so kann eine volle Bildinformation dargestellt werden.Typisch sind Plasmabildschirme mit einer Darstellung »Orange auf Schwarz«, durch unterschiedlich farbige Leuchtstoffe kann man jedoch auch mehrfarbige Darstellungen realisieren. Plasmadisplays werden heute mit Bildschirmdiagonalen von über anderthalb Metern hergestellt. Eine Graustufendarstellung, also das Anzeigen von abgestuften Helligkeiten, ist allerdings kaum möglich. Plasmadisplays zeichnen sich durch hohe Leuchtkraft, aber auch hohen Energiebedarf aus.LCDsDie neben den Kathodenstrahlröhren meistgebrauchten Bildschirme sind die Flüssigkristall-Bildschirme oder LCDs (für englisch: »Liquid Crystal Displays«). Der größte Vorteil der LCDs liegt in ihrem äußerst geringen Strom- und Platzbedarf, was sie ideal für mobile Anwendungen macht: Armbanduhren, Taschenrechner und Anzeigeelemente in Automobilen, die Videoschirme im ICE und Laptopmonitore besitzen Flüssigkristallanzeigen. Die kleinen Abmessungen vieler LCDs deuten darauf hin, dass ihre Entwicklung eng mit der Miniaturisierung verknüpft ist. Zunächst ist es allerdings sinnvoll, einen Blick auf die Natur der Flüssigkristalle zu werfen.Ein Kristall ist per definitionem ein geordneter Festkörper, in einer Flüssigkeit sind die Moleküle ungeordnet und frei beweglich. Der scheinbare Widerspruch im Wort »Flüssigkristall« rührt daher, dass diese Materialklasse in einem bestimmten Temperaturbereich tatsächlich Eigenschaften beider Materiezustände in sich vereinigt: Flüssigkristalline Stoffe sind zwar flüssig, weisen jedoch anisotrope Eigenschaften auf, sie besitzen eine richtungsabhängige, großräumige Struktur. Zwar können sie auch in einer festen, kristallinen Phase und in einer flüssigen, isotropen Phase existieren. Doch beim Aufheizen der festen Kristalle gehen diese Stoffe am Schmelzpunkt nicht wie andere Materialien in den Zustand einer normalen, isotropen Flüssigkeit über, sondern zunächst in einen Mesophase genannten Zwischenzustand. Diesen flüssigkristallinen Zustand behalten sie solange bei, bis sie nach weiterem Aufheizen beim Erreichen des Klärpunktes in die isotrope Flüssigphase übergehen.Eine räumliche Struktur in einem Flüssigkristall besteht im Allgemeinen nur eingeschränkt. Nematische Flüssigkristalle bestehen zum Beispiel aus stäbchenförmigen Molekülen, die wie Spaghetti in einer Tüte entlang einer Vorzugsachse ausgerichtet sind. Längs der Vorzugsachse sind sie dagegen frei verschiebbar und deshalb regellos angeordnet. In smektischen Flüssigkristallen liegen die Moleküle ebenfalls streng parallel angeordnet vor, aber darüber hinaus gruppieren sie sich auch in Schichten übereinander, das heißt, eine smektische Schicht gleicht in etwa einem Weizenfeld mit gleich langen Halmen. Mehrere solcher Schichten lagern sich nun übereinander, wobei die Lagen der Moleküle innerhalb einer Schicht keinen weiteren Bezug zueinander haben müssen, und schon gar nicht von Schicht zu Schicht. Noch komplizierter ist der Aufbau cholesterischer Flüssigkristalle. Wie bei smektischen, liegen die Moleküle hier in ausgerichteten Schichten vor. Aber in jeder Schicht weisen die Moleküle alle in eine, zur Schichtebene gekippten Richtung. Von Schicht zu Schicht ändert sich nun diese Vorzugsrichtung um einen bestimmten Betrag, sodass der Richtungsvektor, senkrecht zum Schichtstapel betrachtet, eine Schraube beschreibt.Wenn nun die Flüssigkristallmoleküle auch noch ein elektrisches Dipolmoment aufweisen, also quasi ein Ende der »Spaghettimoleküle« positiv und das andere negativ geladen ist, so lassen sie sich durch ein von außen angelegtes elektrisches Feld genauso drehen wie eine Kompassnadel in einem Magnetfeld. Die Bilddarstellung in LCDs beruht auf dem Ausnutzen dieses Wechselspiels von innerem Ordnungszwang und äußerer Beeinflussung.Die TN-ZelleDie meisten LCDs beruhen auf dem Prinzip der TN-Zelle. TN steht dabei für »Twisted Nematic«, also für einen verdrehten nematischen Zustand. Man geht beim Aufbau der TN-Zelle von zwei Glasplatten aus, die an ihren Innenseiten transparente Elektroden tragen. Diese bestehen meist aus Indium-Zinn-Oxid (ITO, von englisch: »Indium-Tin-Oxide«), man spricht dann auch von ITO-Elektroden. Zwischen ihnen ist eine wenige Mikrometer dicke Flüssigkristallschicht eingebettet. Zusätzlich sind oberhalb der Elektroden Orientierungsschichten angebracht. Sie sind mit einer submikroskopisch feinen Struktur aus parallelen Rillen versehen und sorgen dafür, dass die Moleküle des nematischen Flüssigkristalls sich an diese Schichten parallel anlagern. Außerhalb der Glasplatten befinden sich auf beiden Seiten Polarisatorfolien, deren Durchlassrichtung der Vorzugsrichtung der Orientierungsschichten entspricht. Hinter der inneren Folie befindet sich noch eine reflektierende Schicht. »Verdrillt« wird die Zelle dadurch, dass man die obere und die untere Struktur um 90 Grad zueinander verdreht anordnet. Die Moleküle, die sich direkt an der oberen oder unteren Platte befinden, richten sich entsprechend der hier jeweils vorliegenden Orientierungsstruktur aus. Den Molekülen zwischen den Platten aber bleibt nichts anderes übrig, als sich kontinuierlich der erzwungenen Änderung ihrer Vorzugsrichtung anzupassen. Daraus resultiert eine Verdrehung der Vorzugsrichtung entlang der Achse von einer Glasplatte zur anderen. Licht, welches durch den oberen Polarisator in die Flüssigkristallschicht eindringt, wird durch diese spezielle Anisotropie des Materials nun in seiner Polarisationsrichtung kontinuierlich mitgedreht und erreicht die untere Polarisatorfolie in Durchlassrichtung. Die dahinter angebrachte reflektierende Schicht schickt das Licht auf demselben Weg zurück; es kommt auch aus dem oberen Polarisator wieder heraus. Legt man jetzt aber eine Spannung an die Elektroden der TN-Zelle, so beugen sich die Moleküle diesem äußeren Zwang und richten sich weitgehend nach dem elektrischen Feld aus: Die Verdrillung wird aufgehoben. Das hat für Licht, das durch den oberen Polarisator dringt, zur Folge, dass seine Polarisationsrichtung bis zum Auftreffen auf dem unteren Polarisator unverändert bleibt, woraufhin dieser das Licht nicht passieren lässt. Kein Licht wird reflektiert, also bleibt diese Zelle dunkel.Die transparenten ITO-Elektroden der LCDs können sehr einfach strukturiert sein. Im einfachsten Fall trägt eine der Glasplatten nur eine Elektrode, während die zweite strukturierte Muster trägt. Zur Strukturierung benutzt man wieder Aufdampf- und Lithographieverfahren. Die bekannteste Anzeige ist die Achtsegmenteanzeige. Durch passend kombinierte Aktivierung der sieben länglichen Segmente lassen sich Ziffern und Buchstaben darstellen, das achte Segment ist der Dezimalpunkt. Dies genügt für viele Zwecke. Oft werden zusätzlich auch besondere Symbole als Elektrodenstruktur realisiert, zum Beispiel ein Glöckchen zur Anzeige, dass die Alarmfunktion einer Armbanduhr »scharf« gestellt wurde. Zur Darstellung komplexerer Daten und vor allem von Bildinformation dienen, wie beim Plasmadisplay, wieder Elektrodenstrukturen aus gekreuzten Streifen. Jeder Kreuzungspunkt entspricht einem Pixel.Leider ist der Kontrast der beschriebenen TN-Zelle nicht besonders gut, da sie nur über eine passive Matrix verfügt, dies bedeutet, dass die Anzeige keine Möglichkeit hat, Fehler bei einzelnen Pixeln aktiv zu korrigieren. Solche Fehler können auftreten, wenn die angesteuerten Pixel die an den benachbarten Bildelementen anliegende Spannung »spüren« und den gewünschten Schaltzustand dem Nachbarpixel angleichen. Deshalb werden großflächige LCDs, zum Beispiel in Laptopcomputern, in der Regel mithilfe der TFT-Technik (TFT steht für »Thin Film Transistor«, Dünnfilmtransistor) realisiert. Das gesamte Bildschirmfeld eines solchen AMLCDs (AM steht für »Active Matrix«) wird über Lithographietechniken mit lauter winzigen Transistoren belegt. Nur geringe Steuerspannungen führen dazu, dass das Pixel seinen gewünschten Zustand annimmt und ihn bis zur nächsten Ansteuerung beibehält. Der gesamte Schirm ist somit ein großer Speicherbaustein, ein DRAM, mit dem Unterschied allerdings, dass in den Dünnfilmtransistoren keine digitale, sondern eine analoge Information, nämlich die Helligkeit des Pixels, gespeichert wird.Ein besonderes Problem der LCDs ist ihre Empfindlichkeit gegen eine Abweichung des Betrachtungswinkels von der Senkrechten: Betrachter, die nicht genau senkrecht auf das Display schauen, sehen gegenüber dem senkrechten Bild veränderte Helligkeiten und Farben. Dies liegt daran, dass Licht, welches nicht genau senkrecht in die Flüssigkristallschicht eintritt, in ihr einen längeren Weg zurücklegt als genau senkrecht eintretendes, was zu zusätzlichen Polarisationserscheinungen und damit zu mangelndem Kontrast und Farbverfälschungen führt. Eine ganze Familie unterschiedlicher Bildschirmtypen wurde entwickelt, um allein diesem Problem zu begegnen. So bilden in manchen Displays die nematischen Moleküle geschraubte Anordnungen mit einem Drehwinkel eines Vielfachen von 90 Grad oder es werden die Schaltelektroden nicht auf den gegenüberliegenden Platten des Displays angebracht, sondern nur auf einer, sozusagen rechts und links vom Pixel. Auch der chemische Aufbau der Flüssigkristallbausteine kann in weiten Grenzen variiert werden, beispielsweise finden die komplizierteren cholesterischen Mesophasen immer mehr Anwendung. Moderne Displays zeigen bei 30 Zentimeter Durchmesser eine Auflösung von 1024 mal 768 Pixeln mit der Möglichkeit, 4096 (214), 262 000 (218) oder 16,7 Millionen (224) unterschiedliche Farben darzustellen.Das FeldemissionsdisplayEine weitere Lösung des Bildschirmproblems, die zwar noch nicht in großem Umfang verfügbar ist, die aber alle positiven Eigenschaften der braunschen Röhre aufweist, ist das Feldemissionsdisplay. Es besteht sozusagen aus einer flächigen Anordnung winzigster braunscher Röhren, die alleine oder in Gruppen je ein Pixel bilden. Ein einzelnes solches Element besteht aus einer sehr scharfen Spitze (mit Krümmungsradien von nur 10 bis 30 Nanometern) und einer darüber angeordneten ringförmigen Elektrode. Alle Spitzen sitzen auf einer Anordnung von stromzuführenden Streifenelektroden mit jeweils einer Schicht mit hohem Widerstand als Strombegrenzung darüber. Die spaltenförmig angeordneten Ringelektroden sind durch eine Isolatorschicht von diesen Elementen getrennt. Oberhalb dieser Emitterschicht ist der eigentliche Bildschirm angebracht, eine Glasscheibe mit einer Gegenelektrode und der schon bekannten Leuchtstoffschicht. Wichtig ist, dass der Raum zwischen den Emitterbausteinen und dem Glasschirm extrem gut evakuiert wurde. Hier darf es nämlich nicht zu einer Gasentladung kommen, vielmehr müssen die von der Spitze emittierten Elektronen auf einer ungestörten, geradlinigen Bahn zum Leuchtstoff gelangen. Wird ein Pixel angesteuert, treten Elektronen aus der Spitze aus und werden durch das elektrische Feld zur Ringelektrode hin beschleunigt. Sie durchqueren den Ring und treffen auf den Leuchtstoff auf, den sie zum Leuchten bringen. Die auf diesem angebrachten positiven Elektroden nehmen die Elektronen auf und verhindern damit eine Aufladung der Leuchtschicht. Das entstehende Bild ist kontrastreich, farbig, beliebig in seiner Helligkeit regelbar und auch aus schräger Position gut zu beobachten. Die Ansteuerung der Pixel ist mit der für Videodarstellungen nötigen Geschwindigkeit möglich. Überdies kann man es sich durch die Winzigkeit der Einzelemitter erlauben, mehrere Einheiten zu einem Bildpunkt zusammenzusetzen. Gleichzeitige Ansteuerung eines solchen Pixels aus zum Beispiel 25 × 25 Einzelemittern ermöglicht ein Ausmitteln des leichten Flackerns der Einzelelemente und macht das Display unempfindlich gegen den Ausfall von solchen Einzelelementen.Die eigentliche technische Herausforderung ist die Langzeitstabilität der Feldemitterdisplays. Auch nach Erzeugung eines guten Hochvakuums im Displayzwischenraum können verschiedenste Substanzen langsam gasförmige Stoffe freisetzen und damit die Qualität des Bildschirms verschlechtern. Dies versucht man durch Einschluss von gasbindenden Substanzen, Gettern, zu vermeiden. Es ist zu erwarten, dass die Feldemissionsdisplays im ersten Jahrzehnt des 21. Jahrhunderts die Vormachtstellung der Kathodenstrahlröhren brechen werden.Dr. Hans-Dieter BauerWeiterführende Erläuterungen finden Sie auch unter:Mikrosystemtechnik: Technische und medizinische AnwendungenGrundlegende Informationen finden Sie unter:Mikrotechnik: Typische HerstellungsverfahrenPhotonik: Informationsverarbeitung mit LichtDisplays. Poing 1999. (Sonderheft »1/1999« der Zeitschrift »Markt & Technik«).Dossier: Laser in neuen Anwendungen, bearbeitet von Dieter Beste u. a. Heidelberg 1998. (Sonderheft »Dossier 2/1998« der Zeitschrift »Spektrum der Wissenschaft«).Ebeling, Karl Joachim: Integrierte Optoelektronik. Wellenleiteroptik, Photonik, Halbleiter. Berlin u. a. 21992.Fouckhardt, Henning: Photonik. Eine Einführung in die integrierte Optoelektronik und technische Optik. Stuttgart 1994.Fuhrmann, Jochen: Die Verbesserung von Technologie und Bildqualität MIM-gesteuerter Flüssigkristall-Bildschirme. Aachen 1998.Glaser, Wolfgang: Photonik für Ingenieure. Berlin 1997.Kneubühl, Fritz Kurt / Sigrist, Markus Werner: Laser. Stuttgart u. a. 51999.Reider, Georg A.: Photonik. Eine Einführung in die Grundlagen. Wien u. a. 1997.Schlüsseltechnologien im 21. Jahrhundert, bearbeitet von Klaus-Dieter Linsmeier u. a. Heidelberg 1995. (Sonderheft »Spezial« 4/1995 der Zeitschrift »Spektrum der Wissenschaft« ).Weinert, Andreas: Kunststofflichtwellenleiter. Grundlagen, Komponenten, Installation. Erlangen u. a. 1998.
Universal-Lexikon. 2012.